¿Podemos mantener Facebook seguro sin dañar al personal?

¿Podemos mantener Facebook seguro sin dañar al personal?

En 2017, Facebook ha modificado ligeramente su declaración de misión. Se prometió un compromiso para "hacer que el mundo sea más abierto y conectado", y en su lugar apareció la intención de "empoderar a las personas para construir una comunidad y acercar el mundo".

Puede ver esto como una admisión de que "abrir" ha fallado. "Abierto" significa abierto al discurso de odio, abuso infantil, violencia, sexo y el tipo de actos ilegales con los que Facebook no tendría nada que ver. Y sin embargo, la sociedad ahora tiene que limpiar este daño cada hora, todos los días.

O más bien, emplea a extraños para hacer el trabajo sucio. En The Cleaners, un documental de Hans Block y Moritz Riesewieck, los empresarios filipinos discuten francamente el flujo constante de sexo, violencia y discurso de odio que tienen que filtrar todos los días.

Mozfest 2019

El ex moderador de Facebook, Chris Gray, y el cineasta Moritz Riesewieck en Mozfest 2019

(Crédito de la imagen: Connor Ballard-Bateman)

Cada decisión debe tomarse en ocho a diez segundos, y "no pienses demasiado" es una cita directa del material de capacitación tal como es. "No se preocupe demasiado acerca de si su decisión es correcta o incorrecta, de lo contrario lo pensará demasiado y no podrá tomar una decisión", Riesewieck le dice a LaComparacion en Mozilla's Mozfest, de donde él y su compañero El director proviene Sea parte de un grupo de discusión de moderación en Internet.

Si alguna vez una empresa tuvo que insistir en la idea de que cualquier problema puede resolverse con suficiente dinero, es Facebook. Y, sin embargo, hasta ahora, el problema solo está creciendo. En 2009, Facebook tenía solo 12 (sí, doce) moderadores de contenido que buscaban el bienestar de 120 millones de usuarios. Ahora hay más de dos mil millones de personas en la plataforma y alrededor de 15,000 moderadores. Si bien esto significa que la relación moderador / usuario ha pasado de moderada a baja, cabe señalar que Facebook en 2019 es muy diferente de lo que era hace una década cuando se utilizó el botón "J". Me gusta "fue la última innovación y Facebook Live, todavía había muchos años.

Índice
  1. "Lo peor de lo peor del desperdicio de Internet"
  2. Super Heroes
  3. La moral no cruza fronteras
  4. ¿Se puede reparar?
  5. "¿Qué te preocupa la mente?"

"Lo peor de lo peor del desperdicio de Internet"

"Se estima que alrededor de 100,000 profesionales están trabajando en este campo", dice Clara Tsao, una colega de Mozilla y experta en combatir la información errónea en línea. "Tratan lo peor del peor desperdicio de Internet", agrega, y señala que el 4 de enero, literalmente, se les llama "conserjes".

Sin embargo, a diferencia de los conserjes del mundo real, los limpiadores de Internet no siempre están equipados con el hardware adecuado para la gran tarea en cuestión. El contingente filipino de Facebook a veces se encontraba con intercambios en idiomas que no hablaba, usando Google Translate para comprender el significado. Esto inevitablemente adquiere un matiz pesado, incluso antes de abordar las inevitables diferencias culturales entre países separados por una brecha de ocho horas entre zonas horarias.

Imágenes de redes sociales

Los moderadores de Facebook necesitan monitorear grandes cantidades de contenido de todo el mundo y pueden necesitar calificar las conversaciones en un idioma que no hablan.

(Crédito de la imagen: Shutterstock)

Los moderadores de Facebook no solo se encuentran en Filipinas. Hay oficinas en todo el mundo, y es en Dublín donde Chris Gray se encontró después de pasar un período de enseñanza en Asia. Ahora es el principal demandante de los moderadores en los procedimientos del Tribunal Superior contra Facebook. Durante un período de nueve meses en la empresa (en Irlanda, la mayoría de los trabajadores tienen un contrato de 11 meses, pero la mayoría se va temprano), Gray trató de 500 a 600 contenidos por noche, generalmente de 18h a 2h. . Solo un año después de su partida, recibió oficialmente un diagnóstico de trastorno de estrés postraumático.

"Me tomó un año darme cuenta de que este trabajo me había dejado inconsciente", dijo en la discusión grupal. Esta reacción tardía, nos dice Riesewieck, no es del todo inusual. "En algunos casos, nos dijeron que fueron principalmente sus amigos quienes les dijeron que habían cambiado", dice.

Me tomó un año darme cuenta de que este trabajo me había golpeado en el culo

Chris Gray

En cualquier caso, muchos de los antiguos colegas de Gray están encantados de ver que ha violado la NDA y ha arrastrado la demanda, a pesar de que no están listos para decirlo públicamente por l & # 39; ahora. "La gente acaba de salir del bosque y dice: 'Oh, gracias a Dios, alguien habló y dijo eso'", le dijo a LaComparacion más tarde.

Para ser claros, a pesar del hecho de que fue personalmente afectado por el trabajo, Gray siente que es engañoso suponer que se trata de una actividad interminable de gore, explotación sexual y sexual. "Para ser honesto, la mayor parte del trabajo es tedioso", dice. "Estas son solo personas que se denuncian entre sí porque discuten y quieren usar algún proceso para comunicarse con la otra persona".

Tedioso, pero a alta presión. En la oficina irlandesa, Gray tuvo 30 segundos para emitir un veredicto sobre el contenido, que era un insulto a una línea o un video de 30 minutos. . "Si su oyente hizo clic (en un video) dos segundos después que usted y vio algo diferente, escuchó un insulto diferente o vio algo más arriba en la jerarquía de prioridades, así que acéptelo, tomó una mala decisión ". Las malas decisiones afectan el nivel de calidad, y el nivel de calidad afecta su trabajo. A pesar de esto, el objetivo de la oficina era una precisión casi imposible al 98%.

Super Heroes

Es difícil encontrar personas para hablar sobre su experiencia de moderación, como lo encontraron Block y Riesewieck cuando buscaban temas. Los NDA son universales y el trabajo se clasifica bajo un nombre en clave: en el momento de la filmación se trataba del "Proyecto de tejón de miel".

A pesar de esto, Facebook, o subcontratistas que muestran moderación, contratan abiertamente, incluso si a menudo son extremadamente engañosos sobre lo que realmente implica el trabajo. "Están usando superhéroes en disfraces", vamos, sean superhéroes, limpien Internet ", dice Gabi Ivens, otro miembro de Mozilla en el panel." Un anuncio en Alemania para los moderadores de contenido planteó preguntas como "¿te gustan las redes sociales y quieres estar al tanto de lo que está pasando en el mundo?"

A pesar del aburrimiento general de la vida cotidiana, los documentales de Block y Riesewieck son sorprendentes: muchos de los temas en sus entrevistas están muy orgullosos de este papel, ya que lo consideran menos un deber que un trabajo.

Facebook

Los moderadores filipinos de Facebook les dijeron a los directores Hans Block y Moritz Riesewieck que sentían que era su deber ético limpiar Internet.

(Crédito de la imagen: Shutterstock)

"Nos dijeron que se sentían como superhéroes de Internet, como agentes de policía que vigilan Internet", dijo Block. Los administradores atribuyen esto en parte al 90 por ciento de la población cristiana de Filipinas. "Nos dijeron que sentían que Jesús liberaba al mundo", agrega Block. Esto a su vez podría hacer que las personas sean reacias a irse, viéndolo como un deber ético y no solo un trabajo.

Pero hay límites para esto, especialmente porque los moderadores no hacen las últimas llamadas por sí mismos. Aquí, el texto sagrado es el conjunto laberíntico de reglas e instrucciones de Facebook: miles de palabras acumuladas durante muchos años. En algunos casos, las personas deben proteger los discursos que creen que deberían prohibirse, o prohibir las palabras que sienten que deberían protegerse, lo que, según Ivens, es un problema claro para el bienestar. "Mantener contenido en línea que crees que no debería ser debería ser extremadamente perjudicial incluso antes de pensar en lo que la gente está viendo".

La ironía de considerar que las reglas son sagradas es que las reglas de Facebook nunca han sido un texto congelado infalible: son el resultado de años de cambios iterativos, que responden gradualmente a las crisis a medida que surgen, e intentan para hacer lo subjetivo más objetivo.

Mantener contenido en línea que no crees que debería estar en línea es extremadamente perjudicial incluso antes de pensar en lo que la gente está viendo.

Gabi Ivens

¿Recuerdas la campaña "Free Nipple"? En resumen, las pautas de Facebook originalmente declararon que cualquier fotografía con senos debería prohibirse como pornografía, lo que significaba que Internet estaba privada de madres orgullosas que amamantaban en la plataforma. Facebook ha cambiado gradualmente sus reglas y aceptó que el contexto importara. Del mismo modo, debemos aceptar que, incluso si no hay nada ilegal en comer vainas de marea o difundir teorías de conspiración contra la vacunación, si algo se convierte en una epidemia de salud público, por lo tanto, es su deber actuar.

"Algunas plataformas dicen que parte del contenido puede no ser ilegal, pero que es inaceptable", dice Tsao. Pero "otros piensan que Internet debería tener mayores libertades para decir lo que quiere". Para Facebook, esta dicotomía produce niveles absurdos de granularidad: "Ahora tenemos algunas pistas sobre amenazar con empujar a alguien desde el techo", dice Gray. "Empujar no es una acción violenta. Estar en el techo es importante, pero ¿qué altura tiene? "Lástima que" no pienses demasiado ".

Este tipo de inercia en las pautas de moderación permite que los trolls de Internet prosperen. No tiene que buscar mucho para encontrar ejemplos de rumores en Internet que van directamente al grano sin excederlo. En cambio, lo dejan a sus seguidores, y a veces, catastróficamente, se desborda en el mundo real.

La moral no cruza fronteras

El estado global de Facebook hace que el problema sea aún más complejo porque la moral no se comparte a través de las fronteras. "Es complicado porque va más allá de la política local de los países y limita con un salvaje oeste", dice Tsao.

Gray da un ejemplo de la sexualidad de las personas: el orgullo gay está muy presente en la mayoría de los países occidentales, pero menos en cualquier otro lugar del mundo. Puedes etiquetar a un amigo como gay en una publicación y se siente lo suficientemente cómodo con su sexualidad como para compartirlo. Entonces, en este caso, es razonable no renunciar, incluso si una niña homofóbica se queja de ello.

Facebook

La moral no es un concepto global. lo que hace que la moderación de contenido internacional sea un gran desafío

(Crédito de la imagen: Shutterstock)

"Pero si estás en Nigeria, podrías ser golpeado o asesinado porque alguien ve este mensaje", dice. "Este error podría costarle la vida a alguien. Quiero decir, es la realidad: a veces miras situaciones de vida o muerte. "

Los actos objetivos de violencia deberían ser más específicos, pero no lo son. El video que muestra a un niño que recibe un disparo puede parecer un candidato obvio para la represión, pero ¿qué pasa si el periodismo ciudadano descubre crímenes de guerra no denunciados? Si Facebook se deshace de él, ¿no es solo el ala de la propaganda involuntaria de los peores déspotas del mundo?

Esa es la realidad: a veces nos fijamos en situaciones de vida o muerte.

Chris Gray

Es complejo, se confunde fácilmente y no ayuda a los trabajadores juzgados por sus respuestas objetivas a posiciones subjetivas. "La gente protesta y aparece en mi escritorio", dijo Gray en el panel. "Y tengo que hacer la llamada: ¿está muerto este bebé? Entonces tengo que presionar el botón derecho. Si presiono el botón equivocado porque mi oyente piensa que el bebé no está muerto, entonces estoy equivocado y alcanzo el nivel de calidad y me despiden.

"Así que estoy despierto por la noche en la cama, veo esa foto de nuevo y trato de argumentar para mantener mi trabajo".

¿Se puede reparar?

Debería ser bastante obvio en este punto que no es completamente culpa de Facebook, a pesar de que la compañía no ayudó durante todo el proceso. ¿Pero qué puede hacer él? Es bastante obvio que el problema no funcionará y que la moderación de AI no está lista para el espectáculo. (Y hay dudas legítimas sobre esto). Para comenzar, necesitas humanos para entrenar a la IA, lo que mueve el trauma un paso hacia atrás. 39, será muy difícil eliminar por completo a los humanos del circuito ", dice Tsao).

"Facebook no tiene una estrategia clara para esto", dice Gray. "Todo es reactivo. Algo sucede, por lo que crean una nueva regla y contratan a más personas. Él piensa que la falta de liderazgo es la raíz del problema. "Tienes que saber a dónde vas con eso y cuál es tu estrategia, y no lo están haciendo". Todo se sigue de eso. "

Trabajador estresado

Roderick Ordens, profesor de psicología, cree que es extremadamente importante que nadie haga este tipo de trabajo solo. La responsabilidad no descansa enteramente en una persona.

(Crédito de la imagen: Shutterstock)

Esto, cree Tsao, se debe en parte al hecho de que los tomadores de decisiones no tuvieron que hacerlo ellos mismos. "He entrevistado a personas responsables de la confianza y la seguridad en las empresas, y una de ellas siempre ha dicho:" Si quieres desempeñar un papel de liderazgo en este campo profesional, Debes entender cómo funciona. abajo ", dice ella. "Debe comprender el trauma, debe comprender qué tipo de sistema de apoyo se necesita".

Roderick Ordens, profesor de psicología en la Universidad de Lincoln, tiene sus propias perspectivas cuando lo contactamos. "Hay un deber de cuidado. Esto no garantiza en ningún caso que no habrá víctimas entre las personas que vean este tipo de material, pero debe verse que la compañía ha hecho todo lo razonable para reducir los riesgos para el el personal.

Nadie debería hacer este tipo de trabajo solo. Y si fue hecho por un grupo, entonces lo que realmente importa es la fuerte cohesión del grupo.

Roderick Ordens

"En primer lugar, nadie debería hacer este tipo de trabajo solo. Y si fue hecho por un grupo, entonces lo que realmente importa es la fuerte cohesión del grupo. Es muy importante organizar esto para que la responsabilidad no se perciba como la responsabilidad del individuo.

Según Ordens, cualquier empresa que contrate para "un trabajo tan peligroso" debe recibir capacitación para permitir a los empleados reconocer las señales de advertencia: "un sentimiento general de inquietud, de no poder relajarse después del trabajo, quizás en exceso preocupado por algunas imágenes. Y esté particularmente atento para saber si el sueño se ve afectado: con una acumulación de mal sueño, todo lo demás es mucho peor. "

"¿Qué te preocupa la mente?"

Que Facebook esté interesado en tal conocimiento es otro problema. "No pretendemos que toda la culpa sea del lado corporativo, eso no es cierto", dice Block. "La culpa, al menos en nuestra opinión, es que no lo hacen transparente, no abren la discusión y no aceptan que no puedan decida solo sobre todo esto ". Block y Riesewieck saben que algunos empleados de Facebook vieron su película durante una proyección en San Francisco, e incluso se habló de mostrarla en las oficinas de Facebook, solo por eso Los correos electrónicos de seguimiento están misteriosamente sin respuesta.

Es cierto que el tratamiento NDA no ayuda, y la gran cantidad de ex empleados y ex empleados asociados con ellos significa que el efecto disminuirá inevitablemente porque hay cierta seguridad en los números. Gray no tenía noticias de Facebook para romper las suyas, al menos no directamente.

"Recibí una llamada de un ex colega ... hace unas semanas. Dijeron: "Oye, me dijeron que Facebook te está demandando". No. ¿A quién dijiste que me demandaron? "El líder de mi equipo". El líder de tu equipo intenta manipularte para que te calles. "

No sé si ya se ha hecho algo. Sabes, solo va en el vacío, parece

Chris Gray

En otras palabras, el equilibrio entre la zanahoria y el palo es tan cómico como el informe del moderador / usuario de Facebook. Como la gente quiere mejorar Internet, ¿tal vez Facebook podría aprovechar ese sentido?

Incluso Gray recuerda ser positivo al recordar un SMS que envió al principio. "Dije:" Transmití personalmente 13 casos de abuso infantil al equipo de respuesta rápida, y me siento realmente bien "." Pero eso no duró. "Nunca he sabido de estas personas. No sé si ya se ha hecho algo. Sabes, parece que todo está sucediendo en el vacío.

¿Podría el reconocimiento hacer una diferencia aumentar la moral? Tal vez, pero solo si realmente tienen un impacto, Gray interviene lo suficiente. "Un niño en Afganistán es atado desnudo en la cama y golpeado. Agrava esto porque es abuso sexual en un niño, pero ¿qué se puede hacer?

"Solo estoy siguiendo la política, la persona en el nivel superior simplemente la está eliminando".

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir